Le parole sono codificate da singoli
elementi neuronici
DIANE
RICHMOND & GIOVANNI ROSSI
NOTE E NOTIZIE - Anno XXI – 10 febbraio
2024.
Testi
pubblicati sul sito www.brainmindlife.org della Società Nazionale di
Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie
o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione
“note e notizie” presenta settimanalmente lavori neuroscientifici selezionati
fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui
argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione
Scientifica della Società.
[Tipologia del testo: RECENSIONE]
Anche se da oltre un secolo e mezzo abbiamo modelli
neurologici del linguaggio umano e negli ultimi venti anni si è andata sviluppando
una concezione delle basi neurali della comunicazione verbale basata sulle
funzioni di complesse reti mediatrici dei processi, abbandonando lo schema solo
corticale del modello di Wernicke-Geschwind, non conosciamo ancora il modo in
cui gruppi neuronici e interazioni di rete assemblino le codifiche fonemiche
per formare ed articolare parole, frasi e discorsi. Se si pensa al faticoso
addestramento delle reti neurali in grado di parlare grazie a una ricca base dati
di memoria, non si può non essere affascinati dalla nostra capacità immediata ed
efficiente di generare innumerevoli combinazioni di movimenti articolatori per
generare locuzioni significative nella nostra lingua madre e in altre lingue
apprese.
L’abilità di orchestrare specifiche sequenze
fonetiche – ossia di suoni linguistici – sillabificati e inflessi secondo il
lessico e la grammatica per la specifica intenzione significativa, nella scala
temporale di frazioni di secondo per produrre migliaia di suoni verbali differenti,
costituisce una parte essenziale della funzione cerebrale che ci consente di
comunicare mediante una lingua verbale; dunque, è alla base del prodigio della
parola umana, ma non sappiamo ancora come tutto sia possibile.
Anche un bambino può, per gioco, inventare nuove
parole deformando quelle che conosce e nel nuovo lessico esprimere pensieri,
fare richieste o dire cose divertenti: non c’è niente di rigido alla base di
questa abilità, e ciò che è necessariamente fisso, per poter essere usato proceduralmente
in frazioni di secondo senza errore, è il prodotto di una memorizzazione che ha
rinforzato e consolidato secondo livelli razionali di uso le unità neurali
codificate.
Ma quali sono, come sono e dove
sono queste unità neurali?
Le unità cellulari fondamentali e i costrutti
mediante i quali il nostro cervello pianifica e produce da singoli fonemi a
interi discorsi sono in gran parte ignoti, anche se una messe di dati indica e
suggerisce numerose associazioni tra attività di neuroni corticali ed
esecuzione individuale della lingua, in contesti di osservazione sperimentale.
Arjun R. Khanna e colleghi, impiegando la nuova
tecnologia AUDNR (acute ultrahigh-density
Neuropixels recordings) durante il parlare di volontari, hanno scoperto nella
corteccia prefrontale dominante per il linguaggio dei neuroni che codificano
dettagliate informazioni fonetiche su vari aspetti delle parole pianificate in
uscita. Qui si presentano gli aspetti più interessanti ed affascinanti di
questo studio.
(Khanna
A. R. et al., Single-neuronal elements of speech production in humans. Nature – Epub ahead
of print doi: 10.1038/s41586-023-06982-w,
2024).
La provenienza degli autori è la seguente: Department of Neurosurgery,
Massachusetts General Hospital, Harvard Medical School, Boston, MA (USA); Department
of Neurology, Massachusetts General Hospital, Harvard Medical School, Boston,
MA (USA); Harvard Medical School, Boston, MA (USA); Harvard-MIT Division of
Health Sciences and Technology, Boston, MA (USA); Harvard Medical School, Program
in Neuroscience, Boston, MA (USA).
Le basi cerebrali della funzione comunicativa
verbale sono state un argomento della neuropsicologia classica, che le
riconduceva a schemi anatomo-clinici, ossia a ricostruzioni di funzioni alterate
nelle sindromi afasiche, in base alla sede del danno identificata allo studio post-mortem
del cervello dei pazienti. Oggi si sta completando un lungo processo di
transizione verso approcci neuroscientifici recenti, in cui le basi del
linguaggio si studiano osservando il cervello in funzione di volontari.
Per introdurre il lettore non specialista a questo
affascinante campo di studi e facilitare la comprensione della portata dei
risultati dello studio qui recensito, si propongono alcuni brani tratti da
nostri articoli precedenti.
Quello motorio, coincidente con un
territorio corticale anteriore, sito presso il piede della terza
circonvoluzione frontale di sinistra[1],
nell’area 44 della mappa di Brodmann e detto area di Broca, dal nome del neurologo ed antropologo francese che
nel 1861 descrisse per primo l’afasia non fluente dovuta alla sua lesione[2].
Quello recettivo, coincidente con un territorio corticale posteriore, contiguo
all’area uditiva temporale, prossimo al giro angolare e alla corteccia
occipitale, detto area di Wernicke, dal nome del giovane neurologo che nel 1874
descrisse l’afasia fluente dovuta alla sua lesione[3].
Per circa un secolo, sebbene vi
fossero teorie alternative come quella di Pierre-Marie, si è pensato alle basi
cerebrali della facoltà di comunicazione verbale umana come a due moduli: uno
di elaborazione recettiva per la comprensione della parola udita o letta, ed
uno di programmazione esecutiva per la produzione vocale della lingua parlata.
A questi due moduli principali, uniti da un fascio di connessione[4]
e costituiti dalle due aree corticali dell’emisfero sinistro, venivano aggiunte
ipotetiche aree secondarie per compiti specializzati, il cui ruolo era desunto
dai deficit derivanti da loro lesioni e solo raramente da stimolazione
elettrofunzionale. Naturalmente, un tale complesso specializzato per il linguaggio
era concepito in connessione con le aree sensoriali dell’udito e della vista,
con le aree motorie per l’articolazione della parola, con le aree associative e
con un ipotetico centro del pensiero,
sede dell’elaborazione cognitiva.
Questo modello era stato proposto
da Carl Wernicke nel 1874[5]
ed aggiornato con nuove connessioni e dettagli negli anni Sessanta del
Novecento da Norman Geschwind, dando luogo allo schema detto di Wernicke–Geschwind.
Le comode certezze ispirate da
questa concezione modulare, semplice e schematica, hanno cominciato a vacillare
con gli studi funzionali condotti durante l’esecuzione di compiti linguistici
mediante tomografia ad emissione di positroni (PET), risonanza magnetica
funzionale (fMRI), elettroencefalografia (EEG) e magnetoencefalografia (MEG)
che hanno rivelato schemi di attivazione estesi e complessi che, combinati con
le nozioni emergenti dalla ricerca neuroscientifica, hanno suggerito
l’esistenza di una complessa architettura funzionale che include l’emisfero destro.
La complessità rende ragione di una
qualità speciale della facoltà di parola umana che non è resa dal semplice
paragone con le abilità comunicative delle altre specie. Le api codificano e
trasmettono la distanza e la direzione del miele mediante una danza, i maschi
di molte specie di uccelli attraggono le femmine con il canto, gli scimpanzé ed
altre scimmie hanno un repertorio di suoni vocali specifici per comunicare
stati affettivi ed emozionali legati al desiderio sessuale, alla paura,
all’aggressività. L’invenzione, l’apprendimento e l’uso delle lingue verbali
umane, che include come traccia paradigmatica di base queste abilità animali,
va molto oltre. Ogni lingua può essere definita come un insieme finito di suoni
che può essere combinato con un numero illimitato di possibilità.
In realtà, il nostro cervello
impiega in entrata e in uscita, anche nella codifica grafica (scrittura), delle
unità di informazione elementari corrispondenti ai singoli suoni o fonemi, che combina in piccole unità
semantiche chiamate morfemi.
Rispettando le regole trasmesse e apprese di una lingua, può combinare i
morfemi in parole, e queste, secondo
la sintassi, in un numero potenzialmente infinito di frasi. Lo sviluppo del linguaggio nel bambino segue un piano
universale e, secondo studi recenti, non può essere ricondotto né al paradigma
di Skinner basato eccessivamente su modellamento e rinforzo esterno, né alla
visione di Chomsky troppo genericamente legata ad una ipotesi innatista.
Proprio lo studio dei processi che consentono l’acquisizione della lingua madre
da parte dei bambini, ha aperto orizzonti nuovi di comprensione della funzione
comunicativa umana, che meritano di essere conosciuti ed ulteriormente
indagati. Sicuramente oggi si ha una visione più chiara delle abilità
linguistiche nella prima infanzia, soprattutto grazie ai progressi nelle
conoscenze relative allo sviluppo cognitivo, che hanno fornito strumenti per
andare oltre la semplice osservazione fenomenica e comportamentale. Sappiamo
che, quando un bambino di un anno pronuncia le prime parole, è in grado di conferire
un valore semantico associativo a non meno di 60-90 termini. Se a 15 mesi
comprende il senso di frasi bitermine concretistiche (bevi-latte), a 16, quando
pronuncia 50 parole distinte, comprende da 170 a 230 termini della lingua
madre.
Ritornando al superato modello Wernicke–Geschwind,
ci si può chiedere cosa rimanga oggi di valido in quella visione, oltre al
riconoscimento delle due aree corticali che, seppure non più ritenute dei
“centri” esclusivi, si sa che svolgono un’importante funzione specializzata al
livello della funzione integrativa corticale. Si può rispondere che il ruolo
privilegiato dell’emisfero sinistro rimane un fatto certo, con la sola
eccezione della piccola percentuale di mancini veri che presentano
un’inversione con controllo corticale a destra e la quota ancora più bassa dei
rari casi di cosiddetta “dominanza doppia” (ambidestri).
La specializzazione dell’emisfero sinistro per l’elaborazione fonetica, delle parole e delle frasi, non
ha un esatto compenso in un ruolo specifico ed esclusivo dell’emisfero destro
per la prosodia, come si era creduto
due decenni fa. L’elaborazione prosodica impegna entrambi gli emisferi, con
variazioni che dipendono dall’informazione veicolata.”[6]
“La tradizionale concezione anatomo-clinica, basata sul confronto tra
lesioni cerebrali autoptiche e profilo prestazionale ai test neuropsicologici, conferiva
estrema importanza alle aree di Broca e Wernicke nell’ottica di una
semplificazione localizzatrice della funzione verbale secondo un modello con
due versanti uno esecutivo e l’altro recettivo uniti dal fascio
di conduzione.
Già gli
studi tomografici e mediante PET condotti negli anni Ottanta avevano minato la
validità di questo modello, mostrando casi che presentavano “lesioni inattese”,
come nella serie di 63 pazienti studiati da Anna Basso con Lecours, Moraschini
e Vanier (1985), in cui si rilevarono 4 casi di afasia non fluente tipo Broca
con lesioni retro-rolandiche e area 44 assolutamente indenne; anche se Tramo
Bayes e Volpe notarono in uno di questi casi un recupero della comprensione
sintattica a un anno dall’ictus, che non si verificava nei pazienti con lesione
dell’area di Broca, era evidente la realtà di basi morfo-funzionali del
linguaggio molto più complesse di quelle definite dal modello anatomo-clinico
ipotizzato per la prima volta da Wernicke.
Alcuni
studi PET in pazienti con afasia di Broca cronica mostrarono riduzione del
metabolismo nell’emisfero cerebellare destro, così che si parlò di “diaschisi
cerebellare crociata”. Seguirono negli anni Novanta gli studi di Antonio e Anna
Damasio, dai quali emerse un nuovo modello di organizzazione funzionale del
linguaggio nel cervello, poi riportato come standard nel trattato di
neuroscienze di Kandel, Schwartz, Jessell, Siegelbaum, Hudspeth (2013). Negli
ultimi anni sono emersi dati che hanno reso ancora più complesso il quadro
delle reti funzionali attive per la comprensione e l’esecuzione della parola
nella comunicazione verbale umana”[7].
Dopo questa introduzione possiamo
tornare allo studio qui recensito, che presenta specificità di codifica di
caratteri del linguaggio parlato e ascoltato da parte di singoli neuroni della
corteccia prefrontale dell’emisfero dominante.
Le registrazioni AUDNR (acute ultrahigh-density
Neuropixels recordings) adottate da Arjun R. Khanna e colleghi sono in
grado di realizzare un campionamento attraverso le colonne di dominanza
corticale e, in tal modo, hanno consentito di individuare nuove cellule
nervose con un ruolo specifico durante la produzione di linguaggio verbale,
in forma di eloquio spontaneo, da parte dei volontari partecipanti allo studio.
I neuroni, scoperti nella corteccia prefrontale dell’emisfero
dominante per il linguaggio verbale (quasi sempre il sinistro) codificavano informazioni
dettagliate circa l’organizzazione fonetica e la composizione
delle parole pianificate per l’esecuzione fonoarticolatoria, durante le
prestazioni comunicative secondo l’uso naturale della lingua parlata.
Le caratteristiche funzionali presentate da questi
neuroni possono essere così sintetizzate:
1)
queste cellule
nervose rappresentavano lo specifico ordine e la specifica struttura
degli eventi articolatori prima della pronuncia delle parole;
2)
riflettevano
con precisione la segmentazione di sequenze fonetiche in sillabe
distinte;
3)
predicevano
accuratamente i costituenti fonetico, sillabico e morfologico
delle parole imminenti;
4)
presentavano
una dinamica ordinata temporalmente.
Questi caratteri dei neuroni di nuova
identificazione indicano già un preciso profilo funzionale al livello
cellulare di processi che, tradizionalmente, erano indagati come ipotetiche
proprietà di aree della corteccia cerebrale. Ma questo è solo il primo dei
risultati ottenuti da questo interessante lavoro.
I ricercatori hanno infatti caratterizzato e
descritto collettivamente queste cellule singolarmente specializzate e “mescolate”
con altri neuroni, in modo da costituire un insieme organizzato
ampiamente lungo le colonne corticali, e hanno studiato il modo in cui i
loro pattern di attivazione vanno incontro a transizione, dalla pianificazione
dell’articolazione ai modi che codificano gli eventi della produzione delle
parole.
Khanna e colleghi hanno poi dimostrato come le
cellule nervose da loro scoperte tracciano affidabilmente la dettagliata e
distinta composizione in 1) consonanti (suoni consonantici) e 2) vocali
(suoni vocalici) durante la percezione uditiva delle parole
pronunciate; e, infine, come questi neuroni sono in grado di distinguere la
categoria dei processi associati alla facoltà di parlare in esecuzione,
dalla categoria di processi associati all’ascolto della parola.
Quest’ultima proprietà demolisce definitivamente il
modello di Wernicke-Geschwind basato sulla localizzazione esclusiva della produzione
nell’area anteriore frontale (area di Broca o 44 di Brodmann) e della ricezione
nell’area posteriore prossima al giro angolare (area di Wernicke o 22 e
viciniori). Soprattutto, questi risultati rivelano un’inedita organizzazione
funzionale rilevantemente strutturata e una codifica a cascata
delle rappresentazioni fonetiche da parte della corteccia prefrontale
sinistra umana, e dimostrano per la prima volta, in modo inequivocabile, processi
cellulari in grado di supportare la produzione dell’eloquio affidata all’attività
delle reti neuroniche cerebrali.
Gli autori della nota ringraziano la dottoressa Isabella Floriani per la correzione della bozza
e invitano alla lettura delle recensioni di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del
sito (utilizzare il motore interno nella pagina “CERCA”).
Diane
Richmond & Giovanni Rossi
BM&L-10 febbraio 2024
________________________________________________________________________________
La Società Nazionale
di Neuroscienze BM&L-Italia, affiliata alla International Society of Neuroscience,
è registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in data
16 gennaio 2003 con codice fiscale 94098840484, come organizzazione scientifica
e culturale non-profit.
[1] Il piede della terza circonvoluzione frontale corrisponde alla parte opercolare del giro frontale inferiore.
[2] Paul Broca era già celebre, quando comunicò alla Società di Antropologia di Parigi la scoperta del “centro motore del linguaggio” dall’esame autoptico di un paziente capace di ripetere sono il monosillabo “tan”. Chiamò afemia, quella che sarà poi definita afasia motoria. Nel 1865 pubblicò un’osservazione decisiva per stabilire la localizzazione esclusiva a sinistra, introducendo la concezione di un emisfero “dominante”.
[3] Fu la prima pubblicazione di Carl Wernicke, un allievo di Theodor Meynert di 26 anni che lavorava come assistente neurologo presso il reparto di neurologia dell’ospedale di Bratislava. Wernicke proponeva uno schema in cui il fascicolo arcuato portava l’informazione dall’area recettiva deputata alla comprensione della parola a quella esecutiva contenente i programmi motori che consentono di parlare.
[4] È solo di recente che è stata descritta la via indiretta di connessione da Marco Catani e colleghi (si veda in “Note e Notizie 07-10-05 Nuove vie e nuove basi neurali per il linguaggio”).
[5] Il modello area di Broca-fascicolo arcuato-area di Wernicke è considerato il prototipo dei modelli connessionisti.
[6] Note e Notizie 25-10-14 Nuova visione del linguaggio nel cervello.
[7] Note e Notizie 02-10-21 Area di Broca umana rivela nuovi aspetti nel confronto col macaco. Si consiglia la lettura dall’inizio di questo articolo anche per introdursi all’afasiologia. Altri spunti interessanti e recenti sulle basi cerebrali del linguaggio si trovano in Note e Notizie 18-02-23 Il cervello di poliglotti e superpoliglotti. Nelle “Note e Notizie” si può consultare una vera banca dati della ricerca degli ultimi due decenni in questo campo.